Skip to main content
Version: Current

一、前言

TacoAI,全称为 Topsfuture AI Computing Optimized,是一个专为边缘计算场景打造的高性能、全栈式 AI 应用开发平台。我们的目标是提供一套从模型开发、代码编译到设备端部署运行的端到端优化解决方案,帮助开发者高效地构建并落地各类边缘 AI 应用。

1.1 概述

TacoAI 的生态系统在设计上清晰地划分为两个主要部分:Host(开发端)Device(设备端)

Host(开发端)

  • 运行在开发者 PC 或服务器上,基于 Docker 环境
  • 提供完整的开发与编译工具链,包括:
    • taWorkshop:用于交叉编译应用程序
    • taNNTC:用于 AI 模型转换优化
  • 所有开发阶段的工作均在此完成

Device(设备端)

  • 指最终部署应用的 TacoAI 硬件平台
  • 搭载经过深度优化的 AI Stack 软件栈
  • 负责高效运行应用程序和 AI 模型

这种"开发与运行分离"的模式,确保了开发者可以在熟悉的 x86 环境下进行高效开发,同时保证了应用在目标设备上运行时能获得最佳的性能和兼容性。

1.2 框架架构(AI Stack)

TacoAI 的核心竞争力在于其设备端的 AI Stack 软件栈。该软件栈采用分层设计,实现了从底层硬件驱动到上层应用接口的全面优化,确保每一层都能高效协同工作。

alt text

1. 应用层

这一层是开发的具体业务应用,例如:

  • 智能安防
  • 质量检测
  • 智慧零售

应用代码会调用下层框架提供的 API 来实现所需功能。

2. 框架层

该层面向快速应用开发,提供了一系列与开源社区标准兼容的高级 API,封装了复杂的底层实现,是开发者最常直接交互的层次。

主要组件包括:

  • taFFmpeg:硬件加速的多媒体框架,用于高效处理音视频的编解码和推拉流任务
  • taOpenCV:经过 RISC-V Vector(RVV)硬件加速的计算机视觉库,提供了丰富的通用图像处理算法接口

3. 中间件层

这是 TacoAI 平台的核心,负责连接上层应用与底层硬件,提供核心功能引擎和硬件抽象。

核心组件包括:

  • taRuntime:AI 推理引擎,负责加载、管理并高效执行 AI 模型,是整个 AI Stack 的核心
  • taCV:硬件 CV 加速库,提供对专用图像处理单元(SPP)的直接访问接口,用于极致性能的图像预处理
  • taSys:内存管理核心,是平台高性能的基石。它负责管理硬件单元所需的特殊内存,是实现"零拷贝"数据流转的关键

4. 内核层

该层是整个软件栈的基础,由以下组件组成:

  • Linux 内核
  • 硬件驱动程序

负责最基础的资源管理和对硬件的直接控制。

通过这套分层架构,TacoAI 实现了灵活性与高性能的统一。开发者既可以利用框架层快速构建应用,也可以在性能瓶颈点深入中间件层进行精细优化,从而满足不同场景下的开发需求。